Association Française des
Sciences et Technologies de l'Information
Sommaire : Trois questions à Robert Gordon | L'actualité de la semaine | Dans les entreprises | Enseignement | Théories et concepts | La recherche en pratique | Manifestations | Le livre de la semaine | Détente
|
|
|
|
Mercredi 8 janvier : Interfaces homme-machine pour l'apprentissage humain, à l'IUT de Montreuil . Programme et inscriptions. | Retenez la date : l'Asti organise sa première école d'été, à Saint-Malo/Dinard, du 1er au 12 septembre 2003. Thème fédérateur : "Image numérique interactive : créer, simuler, interpréter". |
Asti-Hebdo : Platform est un spécialiste du Grid Computing, c’est-à-dire du calcul distribué sur un grand nombre de machines, postes de travail et serveurs. Vous avez développé le premier logiciel du commerce dans ce domaine, et vous êtes aussi à l’origine de l’association sur le Grid Computing, The New Productivity Initiative (www.newproductivity.org). Quelle est l’idée au départ et comment est née la société ?
Robert Gordon : L’origine remonte à 1987, où un étudiant de Berkeley, Songnian Zhou, a imaginé que les entreprises pourraient répartir de gros calculs ou traitements sur des centaines, voire des milliers d’ordinateurs reliés en réseaux privés. En effet, dans les grandes entreprises, l’actif qui est le moins utilisé est l’informatique : un serveur n’est utilisé, en moyenne, qu’à 15 ou 20% de sa puissance. L’idée consistait à développer un logiciel intelligent pour utiliser 100% de la puissance des ordinateurs dans les entreprises. Il en est résulté le logiciel LSF (Load Sharing Facility), et la société Platform Computing a été créée en 1992, à Toronto (Canada) pour industrialiser et commercialiser celui-ci. Platform LSF est une couche logicielle d’infrastructure qui permet de faire du calcul distribué sur des sites distants avec des matériels hétérogènes (Unix, Linux, Windows). Nous avons un autre produit, Platform Intelligence, qui comporte des outils de reporting, d’aide à la décision et de management, basé sur des tests de capacité du réseau et de disponibilité des serveurs et des composants. Depuis dix ans, Platform, qui est encore une société privée, n’a jamais connu un trimestre sans profit.
Asti-Hebdo : On sait (cf. AH No 90, interview de Michel Beaudouin-Lafon) que le Grid Computing est surtout utilisé par les laboratoires de recherche, notamment sur le génome. Quels autres applications visez-vous ?
RG : En ce qui concerne la recherche, Platform a fait partie du projet Globus, un réseau pour les laboratoires scientifiques, et nous avons commercialisé ce logiciel qui est considéré comme un standard. Nous avons participé à l’opération Décrypthon, lancée à l’occasion du Téléthon 2002 : on demandait aux particuliers de mettre leur ordinateur personnel à la disposition de la recherche sur la mucoviscidose par l’intermédiaire d’Internet. 90 000 personnes ont répondu ; l’infrastructure était fournie par IBM Global Services et le logiciel par Platform.
Aujourd’hui, une entreprise peut créer un supercalculateur virtuel en reliant tous ses serveurs et PC au sein de son intranet, même s’ils sont sur des sites distants. Sur les 2000 plus grosses entreprises du monde, 1500 utilisent nos produits, essentiellement dans des départements de niche, notamment la CAO. Dans l’industrie automobile ou aéronautique, les concepteurs utilisent Platform avec des logiciels de CAO (Catia, de Dassault Systèmes, par exemple) ou de simulation de crash (ESI Group, par exemple). Platform est intégré dans les environnements de réalité virtuelle de Renault ou Peugeot. Platform est aussi utilisé pour la conception de circuits électronique, où il est très important de réduire les temps de développement.
Asti-Hebdo : Quelles sont les perspectives pour le Grid Computing ?
RG : Toutes les applications parallélisables, comportant plusieurs domaines de données et dont les traitements peuvent être répartis sur différentes machines, sont des cibles potentielles pour le Grid Computing. Nous avons détecté de nouveaux marchés dans le domaine de la finance, des banques et assurances, pour l’analyse de risque. C’est le secteur qui a la plus forte croissance.
Nous avons développé un logiciel, Symphony, entièrement dédié au monde de la finance, notamment pour les applications temps réel destinées aux traders. Pour la France, où nous sommes établis depuis janvier 2000, nous adoptons une approche très verticale avec des solutions plus adaptées aux métiers de la finance, aux industries manufacturières (automobile, aéronautique, électronique), à la recherche (sciences de la vie, télécoms, énergie) et au secteur public (universités, CNRS, défense...). Enfin, nous établissons des partenariats avec des constructeurs – IBM, HP, SGI, Dell – et des éditeurs – SAS.
Propos recueillis par Claire Rémy
"Un scandaleux projet", titre April dans son comuniqué, dont voici l'introduction :
Le DMCA (Digital millennium copyright cct) défraie la chronique aux États-Unis depuis 1998, en créant de nouveaux délits sanctionnant des actes autorisés auparavant. La version française du DMCA arrive, discrètement discutée depuis un an par le CSPLA (Conseil supérieur de la propriété littéraire et artistique). Loin d'être plus modéré que le DMCA, le projet de loi qui sera discuté à huis clos jeudi 5 décembre 2002 propose même d'autoriser des associations telles que le BSA à se substituer purement et simplement aux auteurs. Pourquoi un tel durcissement alors qu'il est possible de préserver l'intérêt général ? Pourquoi les associations APRIL et FSF ne sont pas à la table des négociations ?
Le communiqué intégral (substantiel et comportant d'utiles pointeurs).
- Bernard Larrouturou, président directeur général de
l'Inria.
- Membre de droit : Geneviève Berger , directeur général
du CNRS.
Représentants de l'État
- Antoine Petit, conseiller auprès du directeur de la recherche, ministère
de la Recherche,
- Emmanuel Caquot, chef du service des technologies et de la société
de l'information, Digitip, ministère de l'Economie, des finances et de
l'Industrie,;
- Benoît Formery, sous-directeurde l'électronique professionnelle
et de l'informatique, Digitip, ministère de l'Economie, des finances
et de l'industrie,
- Philippe Court, administrateur civil, direction du Budget,
- Jacques Serris , directeur adjoint de la Technologie, ministère de
la Recherche,
- François Debout, ingénieur en chef de l'armement, DSP/STTC/DT;
- Elisabeth Beton-Delegue, directrice de la coopération scientifique,
ministère des affaires étrangères.
Membres nommés
- Pascale Sourisse, président directeur général d'Alcatel
Space,
- Malik Ghallab, directeur de recherche au LAAS de Toulouse,
- Philippe Gouel, ingénieur, division recherche et développement
de Bull,;
- Dominique Vernay, directeur technique de Thales,
- Claire Dupas, directrice de l'ENS Cachan,
- Hubert Bouchet, Union des cadres et ingénieurs, FO,
- Olivier Piou, Schlumberger-Sema,
- Christiane Schwartz, direction de l'innovation, France Telecom.
Membres élus - Représentants des personnels scientifiques et ITA
- Thierry Despeyroux, chargé de recherche, Inria Rocquencourt,
- Thierry Vieville, directeur de recherche, Inria Sophia Antipolis,
- Danièle Steer, ingénieur de recherche, Inria Rocquencourt,
- Gérard Paget, ingénieur de recherche, Inria Rennes.
Voix consultatives
- Marie-Claude Gaudel, président du conseil scientifique,
- Hubert Redon, contrôleur financier,
- Jean Salles, agent comptable Inria,
- Hervé Mathieu, directeur général adjoint de l'Inria.
On nous signale Articlede Alain Lioret sur les nouvelles cartes graphiques de nVidia,GeForce2. Son enthousiasme semble justifié par la très abondante littérature consacrée par le Net cette société. On trouvera (en anglais) une abondante étude de ce produit dans le guide Tom's Harware.
Avec Internet : impact sur l’agriculture et les territoires ruraux, signé par Guy Waksman et publié chez Armand Colin, le club Déméter (dirigeants et de chefs d’entreprise du monde agricole), nous fait part de ses analyses en publiant depuis dix ans un ouvrage de réflexion sur les politiques agricoles et agro-alimentaires, centré sur les mutations qu’impose aux entreprises du secteur le mouvement de globalisation de l’économie. L’intérêt du club Déméter est de pouvoir susciter une réflexion indépendante sur ces questions de politique agricole. Le cru 2003 s’interroge sur l’impact réel des avancées technologiques comme l’Internet sur les filières de production agricole et agro-alimentaire.
Pour Guy Waksman, directeur d’ACTA informatique, l’agriculture n’est pas en reste : les outils de la nouvelle économie pénètrent lentement mais sûrement le monde agricole à l’instar des autres secteurs productifs. Ainsi le taux de connexion à l’Internet pour les agriculteurs français à temps plein progresse au même rythme que dans le reste de la population, soit 10% contre 19% pour l’ensemble de la population, mais loin du taux de 50 % constaté chez les « farmers » américains. La mesure d’impact se fonde sur des indicateurs simples comme le nombre de professionnels connectés, de sites accessibles ou d’abonnés à des services électroniques comme les lettres d’information.
La prospective est un exercice autrement délicat mais elle peut s’appuyer sur le précédent du Minitel : par exemple, les outils d’aide à la décision élaborés dans les années 80 soit dans le domaine technique soit dans celui de la gestion ont connu un succès limité. Concernant les usages professionnels, il convient de noter le succès des listes de distribution, certaines adossées à des groupes de presse (france-agricole.com) ou des organismes techniques (ofival.fr) atteignant plusieurs milliers d’abonnés.
L’émergence du commerce électronique dans ce secteur se traduit par le développement de centrales pour l’achat des intrants : agrifirst.com compte désormais plus de 700 clients réguliers et gère un catalogue de 3000 références, avec une activité de 1500 connexions quotidiennes. Pour la vente, le vin, le tourisme rural et plus généralement les produits fermiers et régionaux sont les secteurs les plus dynamiques dans la création de site. Cependant, sauf exception, il s’agit plus d’une stratégie de communication que d’un outil de vente directe. Les problèmes de gestion de référence posés par le développement de la traçabilité ou de l’agriculture de précision suscitent une offre de services de la part de certains centres d’économie rurale ou de prestataires principalement dans le secteur viticole mais aussi pour les grandes cultures dans des filières à forte intégration.
La diffusion des outils d’aide à la décision mis au point dans les années 80 pourrait éventuellement constituer un marché prometteur étant donné le renforcement des contraintes environnementales et l’exigence accrue de sécurité alimentaire, mais cela suppose des investissements de long terme et une intégration de cette démarche aux pratiques professionnelles courantes. De ce point de vue, il faut signaler les efforts de l’enseignement agricole (portail educagri.fr), des organismes de recherche publique comme l’Inra, le Cemagref, le Cirad ou l’Institut technique de la betterave mais aussi de certains organismes professionnels comme ceux du contrôle laitier ou de l’insémination bovine. Plus généralement, l’ensemble des acteurs du monde agricole aux premiers rangs desquels figurent les banques, les centres de gestion et l’industrie phytosanitaire tentent de développer des stratégies d’information et de relation clientèle basées sur Internet.
Au-delà des professionnels de l’agriculture, l’utilisation de ce média concerne l’ensemble du monde rural par son impact sur l’aménagement du territoire. On peut citer certaines expériences: une agence britannique de conseil agricole dont le tiers des employés travaille à domicile, le département de l’Aube pour la constitution d’un réseau d’appui aux maires ruraux, le développement une dynamique régionale en matière d’élevage bovin (agranet.f). La rentabilité actuelle des services Internet repose principalement sur la réduction des coûts de transaction entre acteurs du monde rural et dans une moindre mesure sur leur capacité d’innovation pour ouvrir de nouveaux marchés ou toucher de nouveaux segments de clientèle.
Seule la mise en place d’un système de kiosque semblable aux services Minitel serait susceptible de développer de véritables centres de profit. Mais cette perspective est conditionnée par l’utilisation d’applications basées sur les technologies de l’Internet rapide. Ainsi, pour le monde rural, les difficultés d’accès aux infrastructures à haut débit constituent un facteur limitant les possibilités de développement de ces services. La mutualisation de ces infrastructures de communication par l’ensemble des opérateurs des différentes filières devrait pouvoir apporter une solution régionale à ces problèmes.
Dominique Desbois
Un colloque "Interfaces homme-machine pour l'apprentissage humain"
se tiendra le mercredi 8 janvier, de 9h à 18h,
au LINC, IUT de Montreuil, 140 rue de la Nouvelle France, 93100 Montreuil. Nelly
Bensimon et Eddie Soulier, membres du conseil d'administration de l'Asti, participent
à son animation.
Annonce complète (programme détaillé, inscriptions, moyens d'acccès). Contact par mail.
Les catégories utilisées traditionnellement (depuis le XIXe siècle en tous cas) pour parler des arts sont elles toujours opérationnelles ? C'est la principale question que posait Dominique Lestel (ENS) en lançant la session de synthèse du colloque "De l'esthétique de la communicatino au Net art", organisé la semaine dernière par Mario Costa (professeur d'esthétique à l'université de Salerne), Fred Forest (artiste et professeur émérité de l'université de Nice) et Annick Bureaud (critique d'art et enseignante).
Pour Mario Costa, l'appareil théorique hérité de Kant et Hegel ne sert plus à rien. Nous avons besoin de catégories tout à fiat nouvelles. En fait, arts, sciences et techniques ne sont plus des territoires séparés. (Ils différent en tous cas par leurs méthodes d'évaluation, notera dominique Lestel).
L'artiste doit aujourd'hui assumer un triple rôle : esthétique au sens traditionnel (le beau, le plaisir), cognitif et moral, poursuit Mario Costa. Plus précisément, lance Roy Ascott (Directeur du centre de recherche transdisciplinaire Caiia-Star (www.caiia-star.net), le rôle de l'artiste est d'offrir de nouveaux modèles de vie et d'y associer les moyens nécessaires à les construire. De ce point de vue, les artistes sont moins limités que les scientifiques.
Quel est ici l'impart des nouvelles technologies ? La session de synthèse a peu parlé d'Internet à proprement parler. Elle a par contre dit quelques mots sur l'intérêt des robots "animaleux", principalement développés par les firmes japonaises sous forme de "robots de compagnie". (Voir sur ce thème notre visite au laboratoire CSL de Sony à Paris, AH No 89 (concepts)). Comme le note Edmond Couchot (Professeur émérite, Paris 8), les premières recherches appliquant les nouvelles technologies à la création artistique (Howad Cohen, dans les années 70-80), visaient surtout à explorer les conditions de la création artistique. Aujourd'hui, elles s'intéressent particulièrement à de nouvelles formes d'interaction. Philippe Codognet disait d'ailleurs (à un récent DESS de Paris-1 que, d'une manière générale, l'interaction "de maîtrise" cédait aujourd'hui le pas à une interaction "de coopération".
Allant encore plus loin dans le sens du post-humanisme, Mario Costa montrait que les avancées successives de la science conduisaient à un désengagement progressif de l'artiste du processus créatif. Avec les "techniques" (peinture), l'artiste est engagé corporellement, manuellement, dans la création. Avec les "technologies" (photographie), il n'intervient plus que pour choisir le point de vue. Avec les "nouvelles technologies" (Internet, robot), "le sujet se fait tout à fait introuvable".
Le programme et un certain nombre d'interventions ont été publiées sous forme d'une édition spéciale d'ArtPress (hors commerce). Dans son introduction à ce document, Catherine Millet écrit : "... dans une époque d'autant plus fétichiste... ue l'art lui-même est iconoclaste, époque qui se raccroche d'autant plus aux objets qu'elle ne peut plus s'attacher à des valeurs, nosu vaons toujours préservé une part d'attention pour l'art quie, selon Mario Costa, "dissout définitivemnet la forme au profit du flux". P.B.
Dissoudre la forme dans le flux ? Cette tendance de l'art (article ci-dessus) semble bien s'affirmer aussi à l'informatique des entreprises, comme l'a montré la journée "Processus et systèmes d'information" organisée le 4 décembre par l'Adeli. Certes la modélisation n'est pas nouvelle, et la représentation formelle des flux date au moins des années 1930, avec une forte poussée après la Guerre sous l'égide du Scom. C'est elle qui fournit les premières bases des "méthodes" informatiques. Cependant la description des flux devait peu à peu s'effacer devant des modèles, plus statiques, de traitement et de données, coeur de Merise.
Merise n'est plus à la mode, et c'est un retour à la dynamique qui se fait jour, avec la modélisation des processus. Pour une part, les outils d'hier se sont mis au goût du jour, avec Aris d'IDS Scheer, par exemple. Mais d'autres outils (comme WP 4) partent au contraire du workflow, le flux des tâches humaines. C'est pour une part admettre que les systèmes d'information sous-jacents sont aujourd'hui opérationnels (et trop lourds pour qu'on se permette de les remettre en cause). C'est aussi déplacer l'attention vers l'organisation du travail des êtres humains.
Cela conduit à une certaine modestie. Le ton réaliste habituel à l'Adeli se traduisait cette fois particulièremnet bien dans l'exposé de Jean-Pierre Briffaut et Gérard Saccone "Règles empiriques de modélisation des processus d'entreprise". Une modestie qui ne les empêche tout de même pas de baptiser leur méthode Brisac. Mais Guy Lapassat (Générale des Eaux), qui présidait la journée, n'en concluait pas moins : "Il y a une énorme distance entre ce que nous pensons être les meilleures pratiques et l'état de l'art". P.B.
Avec les journées sur CMSL, dédiées au thème « Interopérabilité et Intégration des Applications (4 et 5 décembre), cette journée s'inscrivait dans le cadre d'ICSSEA 2002.
Les 15e Journées internationales génie logiciel et ingénierie de systèmes, autrement dit les ICSSEA (International conference on software & systems engineering and their applications), présidées par Jean-Claude Rault, ont pour ambition de faire le point sur l’évolution en cours des outils, méthodes et processus relatifs à l’élaboration des logiciels et des systèmes. Organisée par le CMSL (Centre pour la maîtrise des systèmes et du logiciel) du Cnam (Conservatoire national des arts et métiers), et tenue du 3 au 5 décembre 2002, la quinzième édition de cette conférence était placée sous le signe du développement et de la globalisation.
Une série de sessions parallèles, cours et séminaires ont abordé les sujets suivants : qualité du logiciel, ingénierie des exigences, modélisation, conduite de projets, ingénierie de systèmes, réutilisation et composants, systèmes enfouis, travail coopératif, processus, architecture, test et V&V, gestion des connaissances.
Dans la réalisation du programme de ces journées, Jean-Claude Rault a mis l’accent sur des témoignages d’entreprises, plutôt que sur des communications de laboratoires institutionnels : « J’ai voulu mettre en évidence ce qui a un caractère d’application avec retour d’expériences. Même dans les domaines où il n’y a pas encore beaucoup d’applications opérationnelles, les interventions abordent tout de même des aspects concrets et, pour ce qui est des travaux menés dans les centres de recherches (Imag, par exemple), ils ont des retombées dans des applications, par le biais de partenariats, notamment ».
Claire Rémy
"La Conférence des Présidents d'Université a appris avec étonnement et consternation le vote du Sénat du 28/11/2002 réduisant de deux millions d'euros la dotation de fonctionnement des universités dans le budget 2003...". (Communiqué de la maison des universités, information transmise par l' AEF et la diffusion Paris 7
L'Oulipo (Ouvroir de littérature potentielle) tiendra une séance de lecture sur le thème "OuPeinPo et OuTraPo dans l'Hôtel de Sens", ce jeudi 12 décembre à 20h - amphi 24 - campus Jussieu - Entrée libre.
Le Voice Browser Working Group vient de purliber une dernière version
de travail du "Speech Synthesis Markup Language Version 1.0." Les
commentaires seront les bienvenus jusqu'au 15 janvier prochain. Rappelons qu'il
s'agit de créer de la parole synthétique sur le Web et d'en contrôler
la prononciation, le volume, la hauteur et le débit. Pointeurs :
Le séminaire Histoire de l'informatique, historiographie, méthodes
et sources , animé par Pierre Mounier-Kuhn reprend, sur rythme bimensuel.
Au programme de cette année :
- Synthèse du 6e Colloque histoire de l'informatique et des réseaux
(Grenoble, 25-27 novembre 2002) ; points forts, lacunes et sujets de recherche
dans l'histoire de l'informatique ;
- les polytechniciens et l'informatique ;
- IBM France et ses concurrents ;
- Bull et Olivetti : coopération européenne et multinationalisation
(1947-1982) ;
- industrie du software et SSII ;
- les grands systèmes d'information : l'exemple des réseaux Otan
de défense aérienne ;
- le Ministère des Finances et l'informatique.
Pour participer au séminaire, contacter
Pierre Mounier-Kubn.
- Afia
- Afig
- Afihm
- ASF - ACM Sigops
- Atala
- Atief
- Cigref
- Creis
- GRCE
- Gutenberg
- Inforsid
- Specif
Les processus sont à la mode (voir rubrique concepts pour les processus de gestion). Dans le domaine des processus chimiques, Elzevier vient de publier Software Architectures and Tools for Computer Aided Process Engineering (Cape), sous la direction de Bertrand Braunschweig et R. Gani. L'ouvrage est né d'une prise de conscience par ces deux spécialistes que les livres existant sur le Cape ne prenaient pas en compte les architectures logicielles.
Or le logiciel scientifique est indispensable pour traiter les problèmes aussi bien industriels que de recherche, de développement et d'enseignemnt. C'est à l'architecture logicielle de concilier les objectifs du logiciel en lui-même, du cadre général définit pas le méthodes Cape, les algorithmes de calcul et l'intégratino avec les autres logiciels nécessaires aux utilisateurs.
Ce dessin humoristique circulait dans les services informatiques des années 1970. De source inconnue, il fut publié notamment par Informatique et Gestion avec le titre "Relations entreprises-SSII".
On peut se demander s'il n'a pas encore quelque actualité, avec ses différentes phases de plus en plus en plus délirantes :
- ce que demande le client,
- ce que prévoit le contrat,
- ce que l'analyste a prévu,
- ce que le programmeur a fait,
- ce que la mise au point a fait,
- ce qu'il fallait.
L'équipe ASTI-HEBDO : Directeur de la publication : Jean-Paul Haton. Rédacteur en chef : Pierre Berger. Secrétaire général de la rédaction : François Louis Nicolet, Chefs de rubrique : Mireille Boris et Claire Rémy. Asti-Hebdo est diffusé par FTPresse.